Risikoreiche KI per Red Teaming testen
Red Teaming ist eine Möglichkeit, um etwa die Sicherheit von künstlicher Intelligenz zu testen. Jedoch gibt es hierfür keine standardisierten Ansätze. Wissenschaftler des ZEW in Mannheim haben dafür einen Vorschlag.